((Traduction automatisée par Reuters, veuillez consulter la clause de non-responsabilité https://bit.ly/rtrsauto)) par Katie Paul
Meta Platforms META.O commencera à détecter et à étiqueter les images générées par les services d'intelligence artificielle d'autres entreprises dans les mois à venir, en utilisant un ensemble de marqueurs invisibles intégrés dans les fichiers, a déclaré mardi son principal responsable politique.
Meta appliquera les étiquettes à tout contenu portant les marqueurs et publié sur ses services Facebook, Instagram et Threads, afin de signaler aux utilisateurs que les images - qui dans de nombreux cas ressemblent à des photos réelles - sont en fait des créations numériques, a écrit Nick Clegg, président des affaires mondiales de l'entreprise, dans un billet de blog.
L'entreprise étiquette déjà tout contenu généré à l'aide de ses propres outils d'intelligence artificielle.
Une fois que le nouveau système sera opérationnel, Meta fera de même pour les images créées par des services gérés par OpenAI, Microsoft MSFT.O , Adobe ADBE.O , Midjourney, Shutterstock
SSTK.N et Google GOOGL.O (Alphabet), a déclaré M. Clegg.
L'annonce donne un premier ENQUÊTE d'un système émergent de normes que les entreprises technologiques sont en train de mettre au point pour atténuer les inconvénients potentiels associés aux technologies d'IA générative, qui peuvent produire un contenu faux mais d'apparence réaliste en réponse à de simples invites.
Cette approche s'inspire d'un modèle établi au cours de la dernière décennie par certaines de ces mêmes entreprises pour coordonner le retrait de contenus interdits sur les plateformes, notamment les représentations de la violence de masse et de l'exploitation des enfants.
Dans une interview, M. Clegg a déclaré à Reuters qu'il était convaincu que les entreprises pouvaient à ce stade étiqueter de manière fiable les images générées par l'IA, mais il a ajouté que les outils permettant d'étiqueter les contenus audio et vidéo étaient plus compliqués et encore en cours de développement.
"Même si la technologie n'est pas encore tout à fait au point, en particulier en ce qui concerne l'audio et la vidéo, nous espérons pouvoir créer une dynamique et inciter le reste de l'industrie à suivre", a déclaré M. Clegg.
Dans l'intervalle, a-t-il ajouté, la Meta commencera à exiger des utilisateurs qu'ils étiquettent leurs propres contenus audio et vidéo modifiés et appliquera des sanctions s'ils ne le font pas. M. Clegg n'a pas décrit ces sanctions.
Il a ajouté qu'il n'existait actuellement aucun mécanisme viable pour étiqueter le texte écrit généré par des outils d'intelligence artificielle tels que ChatGPT.
"Ce bateau a coulé", a déclaré M. Clegg.
Un porte-parole de Meta a refusé de dire si l'entreprise appliquerait des étiquettes aux contenus générés par l'IA et partagés sur son service de messagerie cryptée WhatsApp.
Lundi, le conseil de surveillance indépendant de Meta a critiqué la politique de l'entreprise concernant les vidéos trompeuses, estimant qu'elle était trop restrictive et que le contenu devait être étiqueté plutôt que supprimé.
M. Clegg a déclaré qu'il était globalement d'accord avec ces critiques.
Le conseil d'administration avait raison de dire que la politique actuelle de Meta "n'est tout simplement pas adaptée à un environnement où il y aura beaucoup plus de contenu synthétique et de contenu hybride qu'auparavant"
Il a cité le nouveau partenariat en matière d'étiquetage comme preuve que Meta s'engageait déjà dans la direction proposée par le conseil d'administration.

0 commentaire
Vous devez être membre pour ajouter un commentaire.
Vous êtes déjà membre ? Connectez-vous
Pas encore membre ? Devenez membre gratuitement
Signaler le commentaire
Fermer